home *** CD-ROM | disk | FTP | other *** search
/ Danny Amor's Online Library / Danny Amor's Online Library - Volume 1.iso / html / faqs / faq / ai-faq / genetic.part3 < prev    next >
Encoding:
Text File  |  1995-07-25  |  38.8 KB  |  753 lines

  1. Subject: FAQ: comp.ai.genetic part 3/6 (A Guide to Frequently Asked Questions)
  2. Newsgroups: comp.ai.genetic,comp.answers,news.answers
  3. From: David.Beasley@cm.cf.ac.uk (David Beasley)
  4. Date: Tue, 20 Sep 94 09:05:56 GMT
  5.  
  6. Archive-name:   ai-faq/genetic/part3
  7. Last-Modified:  9/20/94
  8. Issue:          2.3
  9.  
  10. TABLE OF CONTENTS OF PART 3
  11.      Q2: What applications of EAs are there?
  12.  
  13.      Q3: Who is concerned with EAs?
  14.  
  15.      Q4: How many EAs exist? Which?
  16.      Q4.1: What about Alife systems, like Tierra and VENUS?
  17.  
  18.      Q5: What about all this Optimization stuff?
  19.  
  20. ----------------------------------------------------------------------
  21.  
  22. Subject: Q2: What applications of EAs are there?
  23.  
  24.      In   principle,   EAs  can  compute  any  computable  function,  i.e.
  25.      everything a normal digital computer can do.
  26.  
  27.      But EAs are especially badly suited for problems where efficient ways
  28.      of  solving  them  are  already  known,  (unless  these  problems are
  29.      intended to serve as benchmarks).  Special purpose  algorithms,  i.e.
  30.      algorithms  that  have  a  certain amount of problem domain knowledge
  31.      hard coded into them, will usually outperform EAs,  so  there  is  no
  32.      black  magic  in EC.  EAs should be used when there is no other known
  33.      problem solving strategy, and  the  problem  domain  is  NP-complete.
  34.      That's  where  EAs  come  into  play: heuristically finding solutions
  35.      where all else fails.
  36.  
  37.      Following  is  an  incomplete   (sic!)    list   of   successful   EA
  38.      applications:
  39.  
  40.  TIMETABLING
  41.      This  has  been addressed quite successfully with GAs.  A very common
  42.      manifestation of this kind of problem is the timetabling of exams  or
  43.      classes  in  Universities,  etc.  At  the  Department  of  Artificial
  44.      Intelligence, University of Edinburgh, timetabling the MSc  exams  is
  45.      now done using a GA (Corne et al. 93, Fang 92). An example of the use
  46.      of GAs for timetabling classes is (Abramson & Abela 1991).
  47.  
  48.      In the exam timetabling case,  the  FITNESS  function  for  a  GENOME
  49.      representing a timetable involves computing degrees of punishment for
  50.      various problems with the timetable, such as  clashes,  instances  of
  51.      students  having  to  take  consecutive  exams, instances of students
  52.      having (eg) three or more exams in  one  day,  the  degree  to  which
  53.      heavily-subscribed  exams  occur  late  in the timetable (which makes
  54.      marking harder), overall length of timetable, etc. The modular nature
  55.      of the fitness function has the key to the main potential strength of
  56.      using GAs for this sort of thing as  opposed  to  using  conventional
  57.      search  and/or  constraint  programming  methods. The power of the GA
  58.      approach is the ease with which it  can  handle  arbitrary  kinds  of
  59.      constraints  and  objectives;  all  such  things  can  be  handled as
  60.      weighted components of the fitness function, making it easy to  adapt
  61.      the  GA  to  the  particular  requirements  of  a  very wide range of
  62.      possible overall objectives . Very few other timetabling methods, for
  63.      example,  deal with such objectives at all, which shows how difficult
  64.      it is (without  GAs)  to  graft  the  capacity  to  handle  arbitrary
  65.      objectives  onto  the  basic "find shortest- length timetable with no
  66.      clashes" requirement.  The  proper  way  to  weight/handle  different
  67.      objectives  in  the  fitness  function  in relation to the general GA
  68.      dynamics remains, however, an important research problem!
  69.      GAs thus offer a combination of simplicity, flexibility & speed which
  70.      competes  very  favorably  with other approaches, but are unlikely to
  71.      outperform  knowledge-based  (etc)  methods  if  the  best   possible
  72.      solution  is  required at any cost. Even then, however, hybridisation
  73.      may yield the best of both worlds; also, the ease (if the hardware is
  74.      available!)  of implementing GAs in parallel enhances the possibility
  75.      of using them for good, fast solutions to very hard  timetabling  and
  76.      similar problems.
  77.  
  78.      References
  79.  
  80.      Corne,  D. Fang, H.-L. & Mellish, C. (1993) "Solving the Modular Exam
  81.      Scheduling Problem with Genetic  Algorithms".   Proc.  of  6th  Int'l
  82.      Conf.  on  Industrial  and  Engineering  Applications  of  Artificial
  83.      Intelligence & Expert Systems, ISAI, (to appear).
  84.  
  85.      Fang,  H.-L.  (1992)  "Investigating   GAs   for   scheduling",   MSc
  86.      Dissertation,   University   of   Edinburgh   Dept.   of   Artificial
  87.      Intelligence, Edinburgh, UK.
  88.  
  89.      Abramson & Abela (1991) "A Parallel Genetic Algorithm for Solving the
  90.      School  Timetabling  Problem",  Technical  Report,  Division of I.T.,
  91.      C.S.I.R.O,  April  1991.   (Division   of   Information   Technology,
  92.      C.S.I.R.O.,  c/o  Dept.  of  Communication  & Electronic Engineering,
  93.      Royal Melbourne Institute of  Technology,  PO  BOX  2476V,  Melbourne
  94.      3001, Australia)
  95.  
  96.  JOB-SHOP SCHEDULING
  97.      The  Job-Shop  Scheduling  Problem  (JSSP)  is  a  very difficult NP-
  98.      complete problem which, so far, seems best addressed by sophisticated
  99.      branch  and  bound  search  techniques.  GA researchers, however, are
  100.      continuing to make  progress  on  it.   (Davis  85)  started  off  GA
  101.      research  on  the  JSSP,  (Whitley  89)  reports  on  using  the edge
  102.      RECOMBINATION operator (designed initially for the TSP) on JSSPs too.
  103.      More  recent work includes (Nakano 91),(Yamada & Nakano 92), (Fang et
  104.      al. 93).  The latter three  report  increasingly  better  results  on
  105.      using  GAs on fairly large benchmark JSSPs (from Muth & Thompson 63);
  106.      neither consistently outperform branch & bound search yet,  but  seem
  107.      well  on  the  way.  A  crucial  aspect  of such work (as with any GA
  108.      application) is the method used to  encode  schedules.  An  important
  109.      aspect of some of the recent work on this is that better results have
  110.      been obtained by rejecting the conventional wisdom  of  using  binary
  111.      representations   (as  in  (Nakano  91))  in  favor  of  more  direct
  112.      encodings. In (Yamada & Nakano 92), for example,  a  GENOME  directly
  113.      encodes operation completion times, while in (Fang et al. 93) genomes
  114.      represent implicit instructions for building a schedule. The  success
  115.      of  these  latter techniques, especially since their applications are
  116.      very important in industry, should eventually spawn  advances  in  GA
  117.      theory.
  118.  
  119.      Concerning  the point of using GAs at all on hard job-shop scheduling
  120.      problems, the same goes here as suggested  above  for  `Timetabling':
  121.      The   GA   approach  enables  relatively  arbitrary  constraints  and
  122.      objectives to be incorporated painlessly into a  single  OPTIMIZATION
  123.      method.   It   is  unlikely  that  GAs  will  outperform  specialized
  124.      knowledge-based  and/or  conventional  OR-based  approaches  to  such
  125.      problems  in  terms  of  raw solution quality, however GAs offer much
  126.      greater simplicity and flexibility, and so, for example, may  be  the
  127.      best method for quick high-quality solutions, rather than finding the
  128.      best possible solution at any cost. Also, of course,  hybrid  methods
  129.      will  have a lot to offer, and GAs are far easier to parallelize than
  130.      typical knowledge-based/OR methods.
  131.  
  132.      Similar to the JSSP is  the  Open  Shop  Scheduling  Problem  (OSSP).
  133.      (Fang  et  al.  93) reports an initial attempt at using GAs for this.
  134.      Ongoing results from the same source shows  reliable  achievement  of
  135.      results  within  less than 0.23% of optimal on moderately large OSSPs
  136.      (so far, up to 20x20), including an  improvement  on  the  previously
  137.      best known solution for a benchmark 10x10 OSSP. A simpler form of job
  138.      shop problem is the Flow-Shop Sequencing problem;  recent  successful
  139.      work on applying GAs to this includes (Reeves 93)."
  140.  
  141.      References
  142.      Davis,  L.  (1985)  "Job-Shop  Scheduling  with  Genetic Algorithms",
  143.      [ICGA85], 136-140.
  144.  
  145.      Muth, J.F. & Thompson, G.L. (1963) "Industrial Scheduling".  Prentice
  146.      Hall, Englewood Cliffs, NJ, 1963.
  147.  
  148.      Nakano,  R.  (1991)  "Conventional  Genetic  Algorithms  for Job-Shop
  149.      Problems", [ICGA91], 474-479.
  150.  
  151.      Reeves, C.R. (1993) "A Genetic Algorithm  for  Flowshop  Sequencing",
  152.      Coventry Polytechnic Working Paper, Coventry, UK.
  153.  
  154.      Whitley,  D.,  Starkweather,  T.  &  D'Ann  Fuquay (1989) "Scheduling
  155.      Problems and  Traveling  Salesmen:  The  Genetic  Edge  Recombination
  156.      Operator", [ICGA89], 133-140.
  157.  
  158.      Fang,  H.-L.,  Ross,  P.,  &  Corne  D.  (1993)  "A Promising Genetic
  159.      Algorithm Approach to Job-Shop Scheduling, Rescheduling  &  Open-Shop
  160.      Scheduling Problems", [ICGA93], 375-382.
  161.  
  162.      Yamada,  T.  &  Nakano,  R. (1992) "A Genetic Algorithm Applicable to
  163.      Large-Scale Job-Shop Problems", [PPSN92], 281-290.
  164.  
  165.  MANAGEMENT SCIENCES
  166.      "Applications of EA in management science and closely related  fields
  167.      like organizational ecology is a domain that has been covered by some
  168.      EA researchers - with considerable bias towards scheduling  problems.
  169.      Since  I believe that EA have considerable potential for applications
  170.      outside  the  rather  narrow  domain  of   scheduling   and   related
  171.      combinatorial  problems,  I  started  collecting references about the
  172.      status quo of EA-applications in  management  science.   This  report
  173.      intends  to  make  available  my findings to other researchers in the
  174.      field. It is a short  overview  and  lists  some  230  references  to
  175.      current as well as finished research projects.  [..]
  176.  
  177.      "At  the end of the paper, a questionnaire has been incorporated that
  178.      may be used for this purpose. Other comments are also appreciated."
  179.  
  180.      --- from the Introduction of (Nissen 93)
  181.  
  182.      References
  183.  
  184.      Nissen, V. (1993) "Evolutionary Algorithms in Management Science:  An
  185.      Overview  and List of References", Papers on Economics and Evolution,
  186.      edited by the European Study Group for Evolutionary Economics.   This
  187.      report     is     also     avail.     via     anon.      FTP     from
  188.      gwdu03.gwdg.de:/pub/msdos/reports/wi/earef.eps
  189.  
  190.      Boulding, K.E. (1991) "What is evolutionary economics?",  Journal  of
  191.      Evolutionary Economics, 1, 9-17.
  192.  
  193.  GAME PLAYING
  194.      GAs  can  be  used  to  evolve  behaviors  for playing games. Work in
  195.      evolutionary GAME THEORY  typically  surrounds  the  EVOLUTION  of  a
  196.      POPULATION  of players who meet randomly to play a game in which they
  197.      each must adopt one of a  limited  number  of  moves.  (Maynard-Smith
  198.      1982).   Let's  suppose  it  is  just two moves, X and Y. The players
  199.      receive a reward, analogous to Darwinian FITNESS, depending on  which
  200.      combination  of  moves  occurs  and  which move they adopted. In more
  201.      complicated models there may be several players and several moves.
  202.  
  203.      The players iterate such a game a series of times, and then  move  on
  204.      to a new partner. At the end of all such moves, the players will have
  205.      a cumulative payoff, their FITNESS.  This fitness can then be used as
  206.      a  means  of conducting something akin to Roulette-Wheel SELECTION to
  207.      generate a new POPULATION.
  208.      The real key in using a  GA  is  to  come  up  with  an  encoding  to
  209.      represent  player's strategies, one that is amenable to CROSSOVER and
  210.      to MUTATION.  possibilities are to suppose at each iteration a player
  211.      adopts  X with some probability (and Y with one minus such). A player
  212.      can thus be  represented  as  a  real  number,  or  a  bit-string  by
  213.      interpreting  the  decimal  value of the bit string as the inverse of
  214.      the probability.
  215.  
  216.      An alternative characterisation is to model  the  players  as  Finite
  217.      State  Machines, or Finite Automata (FA). These can be though of as a
  218.      simple flow chart governing behaviour in the "next" play of the  game
  219.      depending upon previous plays. For example:
  220.  
  221.       100 Play X
  222.       110 If opponent plays X go to 100
  223.       120 Play Y
  224.       130 If opponent plays X go to 100 else go to 120
  225.      Represents  a  strategy that does whatever its opponent did last, and
  226.      begins by playing X, known as  "Tit-For-Tat."  (Axelrod  1982).  Such
  227.      machines can readily be encoded as bit-strings. Consider the encoding
  228.      "1 0 1 0 0 1" to represent TFT.  The first three bits, "1  0  1"  are
  229.      state  0.  The  first bit, "1" is interpreted as "Play X." The second
  230.      bit, "0" is interpreted as "if opponent plays X go to state  1,"  the
  231.      third  bit,  "1",  is  interpreted as "if the opponent plays Y, go to
  232.      state 1."  State 1 has a similar interpretation. Crossing  over  such
  233.      bit-strings always yields valid strategies.
  234.  
  235.      SIMULATIONs  in  the Prisoner's dilemma have been undertaken (Axelrod
  236.      1987, Fogel 1993, Miller 1989) of these machines.
  237.  
  238.      Alternative  representations  of  game  players  include   CLASSIFIER
  239.      SYSTEMs  (Marimon, McGrattan and Sargent 1990, [GOLD89]), and Neural-
  240.      networks (Fogel and Harrald 1994), though not necessarily with a  GA.
  241.      (Fogel  1993),  and  Fogel  and  Harrald  1994  use  an  Evolutionary
  242.      Program).
  243.  
  244.      Other methods of evolving a POPULATION can be found in Lindgren 1991,
  245.      Glance and Huberman 1993 and elsewhere.
  246.  
  247.      References.
  248.  
  249.      Axelrod,  R.  (1987)  ``The  Evolution  of Strategies in the Repeated
  250.      Prisoner's Dilemma,'' in [DAVIS91]
  251.  
  252.      Miller, J.H. (1989) ``The Coevolution of  Automata  in  the  Repeated
  253.      Prisoner's Dilemma'' Santa Fe Institute Working Paper 89-003.
  254.  
  255.      Marimon,  Ramon, Ellen McGrattan and Thomas J. Sargent (1990) ``Money
  256.      as a Medium of Exchange in an Economy with  Artificially  Intelligent
  257.      Agents'' Journal of Economic Dynamics and Control 14, pp. 329--373.
  258.  
  259.      Maynard-Smith, (1982) Evolution and the Theory of Games, CUP.
  260.  
  261.      Lindgren, K. (1991) ``Evolutionary Phenomena in Simple Dynamics,'' in
  262.      [ALIFEI].
  263.  
  264.      Holland, J.H and John Miller (1990) ``Artificially Adaptive Agents in
  265.      Economic  Theory,''  American Economic Review: Papers and Proceedings
  266.      of the 103rd Annual Meeting of the  American  Economics  Association:
  267.      365--370.
  268.  
  269.      Huberman,  Bernado,  and  Natalie  S.  Glance  (1993)  "Diversity and
  270.      Collective  Action"   in   H.   Haken   and   A.   Mikhailov   (eds.)
  271.      Interdisciplinary Approaches to Nonlinear Systems, Springer.
  272.  
  273.      Fogel  (1993)  "Evolving Behavior in the Iterated Prisoner's Dilemma"
  274.      Evolutionary Computation 1:1, 77-97
  275.  
  276.      Fogel, D.B. and Harrald, P. (1994) ``Evolving  Complex  Behaviour  in
  277.      the  Iterated  Prisoner's Dilemma,'' Proceedings of the Fourth Annual
  278.      Meetings of the Evolutionary Programming Society, L.J. Fogel and A.W.
  279.      Sebald eds., World Science Press.
  280.  
  281.      Lindgren,  K. and Nordahl, M.G.  "Cooperation and Community Structure
  282.      in Artificial Ecosystems", Artificial Life, vol 1:1&2, 15-38
  283.  
  284.      Stanley, E.A.,  Ashlock,  D.  and  Tesfatsion,  L.  (1994)  "Iterated
  285.      Prisoners  Dilemma  with Choice and Refusal of Partners in [ALIFEIII]
  286.      131-178
  287.  
  288. ------------------------------
  289.  
  290. Subject: Q3: Who is concerned with EAs?
  291.  
  292.      EVOLUTIONARY COMPUTATION attracts researchers  and  people  of  quite
  293.      dissimilar  disciplines,  i.e.   EC  is  a interdisciplinary research
  294.      field:
  295.  
  296.  Computer scientists
  297.      Want to find out about the  properties  of  sub-symbolic  information
  298.      processing  with  EAs  and  about learning, i.e.  adaptive systems in
  299.      general.
  300.  
  301.      They  also  build  the  hardware  necessary  to  enable  future   EAs
  302.      (precursors  are  already  beginning  to  emerge)  to huge real world
  303.      problems, i.e. the term "massively parallel computation"  [HILLIS92],
  304.      springs to mind.
  305.  
  306.  Engineers
  307.      Of  many  kinds want to exploit the capabilities of EAs on many areas
  308.      to solve their application, esp.  OPTIMIZATION problems.
  309.  
  310.  Roboticists
  311.      Want to build MOBOTs (MOBile ROBOTs, i.e. R2D2's  and  #5's  cousins)
  312.      that  navigate through uncertain ENVIRONMENTs, without using built-in
  313.      "maps".  The MOBOTS thus have to adapt  to  their  surroundings,  and
  314.      learn what they can do "move-through-door" and what they can't "move-
  315.      through-wall" on their own by "trial-and-error".
  316.  
  317.  Cognitive scientists
  318.      Might view CFS as a possible apparatus to describe models of thinking
  319.      and cognitive systems.
  320.  
  321.  Physicists
  322.      Use  EC  hardware, e.g. Hillis' (Thinking Machine Corp.'s) Connection
  323.      Machine to model real  world  problems  which  include  thousands  of
  324.      variables, that run "naturally" in parallel, and thus can be modelled
  325.      more easily and esp.  "faster" on  a  parallel  machine,  than  on  a
  326.      serial "PC" one.
  327.  
  328.  Biologists
  329.      In  fact  many  working  biologists  are  hostile to modeling, but an
  330.      entire  community   of   Population   Biologists   arose   with   the
  331.      'evolutionary  synthesis' of the 1930's created by the polymaths R.A.
  332.      Fisher, J.B.S.  Haldane, and S. Wright.  Wright's SELECTION in  small
  333.      POPULATIONs, thereby avoiding local optima) is of current interest to
  334.      both biologists and ECers -- populations are naturally parallel.
  335.  
  336.      A good exposition  of  current  POPULATION  Biology  modeling  is  J.
  337.      Maynard Smith's text Evolutionary Genetics.  Richard Dawkin's Selfish
  338.      Gene and Extended Phenotype are unparalleled (sic!) prose expositions
  339.      of   evolutionary  processes.   Rob  Collins'  papers  are  excellent
  340.      parallel GA models of evolutionary processes (available  in  [ICGA91]
  341.      and by FTP from ftp.cognet.ucla.edu:/pub/alife/papers/ ).
  342.  
  343.      As  fundamental  motivation, consider Fisher's comment: "No practical
  344.      biologist interested in (e.g.) sexual REPRODUCTION would  be  led  to
  345.      work  out  the  detailed consequences experienced by organisms having
  346.      three or more sexes; yet what else should [s/]he do if [s/]he  wishes
  347.      to  understand why the sexes are, in fact, always two?"  (Three sexes
  348.      would make for even weirder grammar, [s/]he said...)
  349.  
  350.  Philosophers
  351.      and some other really curious people may also be interested in EC for
  352.      various reasons.
  353.  
  354.  
  355. ------------------------------
  356.  
  357. Subject: Q4: How many EAs exist? Which?
  358.  
  359.  The All Stars
  360.      There  are  currently  3  main  paradigms  in  EA  research:  GENETIC
  361.      ALGORITHMs,  EVOLUTIONARY  PROGRAMMING,  and  EVOLUTION   STRATEGIEs.
  362.      CLASSIFIER  SYSTEMs  and  GENETIC PROGRAMMING are OFFSPRING of the GA
  363.      community.  Besides this  leading  crop,  there  are  numerous  other
  364.      different  approaches, alongside hybrid experiments, i.e. there exist
  365.      pieces of software residing in some researchers computers, that  have
  366.      been  described  in papers in conference proceedings, and may someday
  367.      prove useful on certain tasks. To stay in EA slang, we  should  think
  368.      of  these  evolving  strands as BUILDING BLOCKs, that when recombined
  369.      someday, will  produce  new  offspring  and  give  birth  to  new  EA
  370.      paradigm(s).
  371.  
  372.  Promising Rookies
  373.      As  far  as  "solving complex function and COMBINATORIAL OPTIMIZATION
  374.      tasks" is concerned, Davis' work on real-valued  representations  and
  375.      adaptive operators should be mentioned (Davis 89). Moreover Whitley's
  376.      Genitor system incorporating ranking  and  "steady  state"  mechanism
  377.      (Whitley    89),    Goldberg's   "messy   GAs",   involves   adaptive
  378.      representations (Goldberg 91), and Eshelman's CHC algorithm (Eshelman
  379.      91).
  380.  
  381.      For   "the  design  of  robust  learning  systems",  i.e.  the  field
  382.      characterized by CFS, Holland's (1986) CLASSIFIER SYSTEM,  with  it's
  383.      state-of-the-art  implementation  CFS-C  (Riolo  88),  we should note
  384.      recent developments in SAMUEL (Grefenstette 89),  GABIL  (De  Jong  &
  385.      Spears 91), and GIL (Janikow 91).
  386.  
  387.      References
  388.  
  389.      Davis,   L.   (1989)  "Adapting  operator  probabilities  in  genetic
  390.      algorithms", [ICGA89], 60-69.
  391.  
  392.      Whitley, D. et  al.  (1989)  "The  GENITOR  algorithm  and  SELECTION
  393.      pressure:  why rank-based allocation of reproductive trials is best",
  394.      [ICGA89], 116-121.
  395.  
  396.      Goldberg, D. et al. (1991) "Don't worry, be messy", [ICGA91],  24-30.
  397.  
  398.      Eshelman,  L.J.  et  al.  (1991) "Preventing premature convergence in
  399.      GENETIC ALGORITHMs by preventing incest", [ICGA91], 115-122.
  400.  
  401.      Holland, J.H. (1986)  "Escaping  brittleness:  The  possibilities  of
  402.      general-purpose  learning  algorithms  applied to parallel rule-based
  403.      systems".  In R. Michalski, J. Carbonell, T. Mitchell (eds),  Machine
  404.      Learning:  An  ARTIFICIAL  INTELLIGENCE  Approach.  Los Altos: Morgan
  405.      Kaufmann.
  406.      Riolo,  R.L.  (1988)  "CFS-C:  A  package   of   domain   independent
  407.      subroutines  for  implementing CLASSIFIER SYSTEMs in arbitrary, user-
  408.      defined  environments".   Logic  of  computers  group,  Division   of
  409.      computer science and engineering, University of Michigan.
  410.  
  411.      Grefenstette,  J.J.  (1989) "A system for learning control strategies
  412.      with genetic algorithms", [ICGA89], 183-190.
  413.  
  414.      De Jong K.A. & Spears  W.  (1991)  "Learning  concept  classification
  415.      rules  using  genetic algorithms". Proc. 12th IJCAI, 651-656, Sydney,
  416.      Australia: Morgan Kaufmann.
  417.  
  418.      Janikow  C.  (1991)  "Inductive  learning  of  decision  rules   from
  419.      attribute-based  examples:  A  knowledge-intensive  GENETIC ALGORITHM
  420.      approach". TR91-030, The University of North Carolina at Chapel Hill,
  421.      Dept. of Computer Science, Chapel Hill, NC.
  422.  
  423. ------------------------------
  424.  
  425. Subject: Q4.1: What about Alife systems, like Tierra and VENUS?
  426.  
  427.      None  of  these  are Evolutionary Algorithms, but all of them use the
  428.      evolutionary metaphor as their "playing field".
  429.  
  430.  Tierra
  431.      Synthetic organisms have been created based on a computer metaphor of
  432.      organic  life in which CPU time is the ``energy'' resource and memory
  433.      is the ``material'' resource.  Memory is organized into informational
  434.      patterns  that  exploit  CPU  time  for  self-replication.   MUTATION
  435.      generates new forms, and EVOLUTION proceeds by natural  SELECTION  as
  436.      different GENOTYPEs compete for CPU time and memory space.
  437.  
  438.      Observation  of  nature  shows that EVOLUTION by natural SELECTION is
  439.      capable of both OPTIMIZATION and creativity.   Artificial  models  of
  440.      evolution  have  demonstrated the optimizing ability of evolution, as
  441.      exemplified by the field of GENETIC ALGORITHMs.  The creative aspects
  442.      of evolution have been more elusive to model.  The difficulty derives
  443.      in part from a tendency of models  to  specify  the  meaning  of  the
  444.      ``genome''  of  the  evolving  entities, precluding new meanings from
  445.      emerging.  I will present a natural model of evolution  demonstrating
  446.      both  optimization  and  creativity,  in which the GENOME consists of
  447.      sequences of executable machine code.
  448.  
  449.      From a single rudimentary ancestral ``creature'', very quickly  there
  450.      evolve  parasites,  which  are  not  able  to  replicate in isolation
  451.      because they lack a large portion  of  the  GENOME.   However,  these
  452.      parasites  search  for the missing information, and if they locate it
  453.      in a nearby creature, parasitize the information from the neighboring
  454.      genome, thereby effecting their own replication.
  455.  
  456.      In  some  runs,  hosts  evolve immunity to attack by parasites.  When
  457.      immune hosts appear, they often increase  in  frequency,  devastating
  458.      the  parasite POPULATIONs.  In some runs where the community comes to
  459.      be dominated by immune hosts, parasites evolve that are resistant  to
  460.      immunity.
  461.  
  462.      Hosts  sometimes  evolve  a  response  to  parasites that goes beyond
  463.      immunity,  to  actual  (facultative)  hyper-parasitism.   The  hyper-
  464.      parasite  deceives  the  parasite  causing the parasite to devote its
  465.      energetic resources to  replication  of  the  hyper-parastie  GENOME.
  466.      This  drives the parasites to extinction.  Evolving in the absence of
  467.      parasites,  hyper-parasites  completely   dominate   the   community,
  468.      resulting  in  a relatively uniform community characterized by a high
  469.      degree   of   relationship   between   INDIVIDUALs.    Under    these
  470.      circumstances,  sociality evolves, in the form of creatures which can
  471.      only replicate in aggregations.
  472.      The cooperative behavior of the  social  hyper-parasites  makes  them
  473.      vulnerable to a new class of parasites.  These cheaters, hyper-hyper-
  474.      parasites, insert themselves between cooperating social  INDIVIDUALs,
  475.      deceiving the social creatures, causing them to replicate the GENOMEs
  476.      of the cheaters.
  477.  
  478.      The only genetic change imposed on the simulator is random bit  flips
  479.      in  the  machine  code  of the creatures.  However, it turns out that
  480.      parasites  are  very  sloppy  replicators.   They  cause  significant
  481.      RECOMBINATION  and  rearrangement  of  the GENOMEs.  This spontaneous
  482.      sexuality is a powerful force for evolutionary change in the  system.
  483.  
  484.      One  of the most interesting aspects of this instance of life is that
  485.      the bulk of the EVOLUTION  is  based  on  adaptation  to  the  biotic
  486.      ENVIRONMENT rather than the physical environment.  It is co-evolution
  487.      that drives the system.
  488.  
  489.      --- "Tierra announcement" by Tom Ray (1991)
  490.  
  491.   How to get Tierra?
  492.      The complete source code and documentation (but not  executables)  is
  493.      available   by   anonymous   FTP   at:   tierra.slhs.udel.edu:/   and
  494.      life.slhs.udel.edu:/ in the directories: almond/, beagle/, doc/,  and
  495.      tierra/.
  496.  
  497.      If you do not have FTP access you may obtain everything on DOS disks.
  498.      For details, write to: Virtual Life, 25631 Jorgensen Rd., Newman,  CA
  499.      95360.
  500.  
  501.      References
  502.  
  503.      Ray, T. S. (1991)  "Is it alive, or is it GA?" in [ICGA91], 527--534.
  504.  
  505.      Ray, T. S. (1991)   "An  approach  to  the  synthesis  of  life."  in
  506.      [ALIFEII], 371--408.
  507.  
  508.      Ray,  T.  S.   (1991)  "Population dynamics of digital organisms." in
  509.      [ALIFEII-V].
  510.  
  511.      Ray,  T.  S.   (1991)   "Evolution  and   OPTIMIZATION   of   digital
  512.      organisms."   Scientific  Excellence  in Supercomputing: The IBM 1990
  513.      Contest Prize Papers, Eds. Keith R. Billingsley, Ed Derohanes, Hilton
  514.      Brown,  III.  Athens, GA, 30602, The Baldwin Press, The University of
  515.      Georgia.
  516.  
  517.      Ray, T. S.  (1992)  "Evolution, ecology and OPTIMIZATION  of  digital
  518.      organisms."  Santa Fe Institute working paper 92-08-042.
  519.  
  520.      Ray, T. S.  "Evolution, complexity, entropy, and artificial reality."
  521.      submitted Physica D. Avail. as tierra.slhs.udel.edu:/doc/PhysicaD.tex
  522.  
  523.      Ray,  T.  S.   (1993) "An evolutionary approach to synthetic biology,
  524.      Zen and the art of creating life.  Artificial Life  1(1).  Avail.  as
  525.      tierra.slhs.udel.edu:/doc/Zen.tex
  526.  
  527.  VENUS
  528.      Steen  Rasmussen's  (et  al.) VENUS I+II "coreworlds" as described in
  529.      [ALIFEII] and [LEVY92], are inspired  by  A.K.  Dewdney's  well-known
  530.      article  (Dewdney  1984). Dewdney proposed a game called "Core Wars",
  531.      in which hackers create computer programs that battle for control  of
  532.      a  computer's "core" memory (Strack 93).  Since computer programs are
  533.      just patterns of information, a successful program in  core  wars  is
  534.      one that replicates its pattern within the memory, so that eventually
  535.      most of the memory contains its  pattern  rather  than  that  of  the
  536.      competing program.
  537.  
  538.      VENUS  is  a modification of Core Wars in which the Computer programs
  539.      can mutate, thus the pseudo assembler code creatures of VENUS  evolve
  540.      steadily.   Furthermore   each   memory   location  is  endowed  with
  541.      "resources" which, like sunshine are added  at  a  steady  state.   A
  542.      program  must  have  sufficient resources in the regions of memory it
  543.      occupies in order to execute.   The  input  of  resources  determines
  544.      whether  the  VENUS ecosystem is a "jungle" or a "desert."  In jungle
  545.      ENVIRONMENTs, Rasmussen et al. observe the spontaneous  emergence  of
  546.      primitive  "copy/split"  organisms  starting from (structured) random
  547.      initial conditions.
  548.  
  549.      --- [ALIFEII], p.821
  550.  
  551.      Dewdney, A.K. (1984) "Computer Recreations: In the Game  called  Core
  552.      War  Hostile Programs Engage in a Battle of Bits", Sci. Amer. 250(5),
  553.      14-22.
  554.  
  555.      Farmer &  Belin  (1992)  "Artificial  Life:  The  Coming  Evolution",
  556.      [ALIFEII], 815-840.
  557.  
  558.      Rasmussen,  et  al. (1990) "The Coreworld: Emergence and EVOLUTION of
  559.      Cooperative Structures in a  Computational  Chemistry",  [FORREST90],
  560.      111-134.
  561.  
  562.      Rasmussen,   et   al.   (1992)  "Dynamics  of  Programmable  Matter",
  563.      [ALIFEII], 211-254.
  564.  
  565.      Strack (1993) "Core War Frequently Asked Questions (rec.games.corewar
  566.      FAQ)"         Avail.         by         anon.         FTP        from
  567.      rtfm.mit.edu:/pub/usenet/news.answers/games/corewar-faq.Z
  568.  
  569.  PolyWorld
  570.      Larry Yaeger's PolyWorld as described in [ALIFEIII] and  [LEVY92]  is
  571.      available via anonymous FTP from ftp.apple.com:/pub/polyworld/
  572.  
  573.      "The  subdirectories in this "polyworld" area contain the source code
  574.      for the PolyWorld ecological simulator, designed and written by Larry
  575.      Yaeger, and Copyright 1990, 1991, 1992 by Apple Computer.
  576.  
  577.      PostScript  versions  of  my ARTIFICIAL LIFE III technical paper have
  578.      now been added to the directory.  These should be directly  printable
  579.      from most machines.  Because some unix systems' "lpr" commands cannot
  580.      handle very large files (ours at least), I have split the paper  into
  581.      Yaeger.ALife3.1.ps and Yaeger.ALife3.2.ps.  These files can be ftp-ed
  582.      in "ascii" mode.  For unix users  I  have  also  included  compressed
  583.      versions  of  both these files (indicated by the .Z suffix), but have
  584.      left the uncompressed versions around for people connecting from non-
  585.      unix  systems.   I  have  not  generated  PostScript  versions of the
  586.      images, because they are color and the resulting files are  much  too
  587.      large  to  store,  retrieve,  or  print.   Accordingly, though I have
  588.      removed a Word-formatted version of the textual  body  of  the  paper
  589.      that  used  to  be  here, I have left a Word-formatted version of the
  590.      color images.  If you wish to acquire it, you will need  to  use  the
  591.      binary transfer mode to move it to first your unix host and then to a
  592.      Macintosh (unless Word on a PC can read it - I don't know),  and  you
  593.      may  need to do something nasty like use ResEdit to set the file type
  594.      and creator to match those of a standard Word document (Type =  WDBN,
  595.      Creator = MSWD).  [..]"
  596.  
  597.      --- from the README by Larry Yaeger <larryy@apple.com>
  598.  
  599.  General Alife repositories?
  600.      Also, all of the following FTP sites carry ALIFE related info:
  601.  
  602.      ftp.cognet.ucla.edu:/pub/alife/                                     ,
  603.      life.anu.edu.au:/pub/complex_systems/alife/                         ,
  604.      ftp.cogs.susx.ac.uk:/pub/reports/csrp/  ,  xyz.lanl.gov:/nlin-sys/  ,
  605.      alife.santafe.edu:/pub/
  606.  
  607. ------------------------------
  608.  
  609. Subject: Q5: What about all this Optimization stuff?
  610.  
  611.      Just think of an OPTIMIZATION problem as a black box.  A large  black
  612.      box.  As  large as, for example, a Coca-Cola vending machine. Now, we
  613.      don't know nothing about the inner workings of  this  box,  but  see,
  614.      that  there  are some regulators to play with, and of course we know,
  615.      that we want to have a bottle of the real thing...
  616.  
  617.      Putting this everyday problem into a mathematical model,  we  proceed
  618.      as follows:
  619.  
  620.      (1) we  label all the regulators with x and a number starting from 1;
  621.      the result is a vector x, i.e.  (x_1,...,x_n),  where  n  is  the
  622.      number of visible regulators.
  623.  
  624.      (2) we must find an objective function, in this case it's obvious, we
  625.      want to get k bottles of the real thing, where k is equal  to  1.
  626.      [some  might  want  a  "greater or equal" here, but we restricted
  627.      ourselves to the visible regulators (we all know that sometimes a
  628.      "kick  in  the  right  place" gets use more than 1, but I have no
  629.      idea how to put this mathematically...)]
  630.  
  631.      (3) thus, in the language some mathematicians  prefer  to  speak  in:
  632.      f(x)  =  k  =  1. So, what we have here is a maximization problem
  633.      presented in a form we know from some  boring  calculus  lessons,
  634.      and   we   also   know  that  there  at  least  a  dozen  utterly
  635.      uninteresting techniques to solve problems presented this  way...
  636.  
  637.  What can we do in order to solve this problem?
  638.      We  can  either try to gain more knowledge or exploit what we already
  639.      know about the interior of the black box. If the  objective  function
  640.      turns  out  to  be smooth and differentiable, analytical methods will
  641.      produce the exact solution.
  642.  
  643.      If this turns out to be impossible, we  might  resort  to  the  brute
  644.      force  method  of  enumerating the entire SEARCH SPACE.  But with the
  645.      number of possibilities growing exponentially in  n,  the  number  of
  646.      dimensions  (inputs),  this  method  becomes infeasible even for low-
  647.      dimensional spaces.
  648.  
  649.      Consequently, mathematicians  have  developed  theories  for  certain
  650.      kinds  of  problems  leading  to specialized OPTIMIZATION procedures.
  651.      These  algorithms  perform  well  if  the  black  box  fulfils  their
  652.      respective  prerequisites.   For example, Dantzig's simplex algorithm
  653.      (Dantzig 66) probably  represents  the  best  known  multidimensional
  654.      method capable of efficiently finding the global optimum of a linear,
  655.      hence convex, objective function in a SEARCH SPACE limited by  linear
  656.      constraints.   (A  USENET  FAQ on linear programming is maintained by
  657.      John W. Gregory of Cray Research, Inc.  Try  to  get  your  hands  on
  658.      "linear-programming-faq"  (and  "nonlinear-programming-faq")  that is
  659.      posted monthly to sci.op-research and is mostly interesting to read.)
  660.  
  661.      Gradient  strategies  are  no longer tied to these linear worlds, but
  662.      they smooth their world by exploiting the objective function's  first
  663.      partial  derivatives  one  has to supply in advance. Therefore, these
  664.      algorithms rely on a locally linear internal model of the black  box.
  665.  
  666.      Newton   strategies   additionally   require   the   second   partial
  667.      derivatives, thus building a quadratic internal model.  Quasi-Newton,
  668.      conjugate  gradient  and  variable metric strategies approximate this
  669.      information during the search.
  670.      The deterministic  strategies  mentioned  so  far  cannot  cope  with
  671.      deteriorations,  so  the search will stop if anticipated improvements
  672.      no longer occur. In a multimodal ENVIRONMENT  these  algorithms  move
  673.      "uphill"  from their respective starting points. Hence, they can only
  674.      converge to the next local optimum.
  675.  
  676.      Newton-Raphson-methods might even diverge if  a  discrepancy  between
  677.      their  internal assumptions and reality occurs.  But of course, these
  678.      methods turn out to  be  superior  if  a  given  task  matches  their
  679.      requirements.  Not relying on derivatives, polyeder strategy, pattern
  680.      search and rotating coordinate search should also be  mentioned  here
  681.      because  they  represent  robust  non-linear  OPTIMIZATION algorithms
  682.      (Schwefel 81).
  683.  
  684.      Dealing with technical OPTIMIZATION problems, one will rarely be able
  685.      to write down the objective function in a closed form.  We often need
  686.      a SIMULATION model in order to grasp reality.  In general, one cannot
  687.      even   expect   these   models   to  behave  smoothly.  Consequently,
  688.      derivatives do not exist. That is why  optimization  algorithms  that
  689.      can  successfully  deal  with  black  box-type  situations  habe been
  690.      developed. The increasing applicability is of course paid  for  by  a
  691.      loss  of  "convergence  velocity,"  compared  to algorithms specially
  692.      designed for the given problem.  Furthermore, the guarantee  to  find
  693.      the global optimum no longer exists!
  694.  
  695.  But why turn to nature when looking for more powerful algorithms?
  696.      In  the  attempt  to  create  tools for various purposes, mankind has
  697.      copied, more often instinctively than geniously,  solutions  invented
  698.      by  nature.  Nowadays, one can prove in some cases that certain forms
  699.      or structures are not only well adapted to their ENVIRONMENT but have
  700.      even reached the optimum (Rosen 67). This is due to the fact that the
  701.      laws of nature have remained  stable  during  the  last  3.5  billion
  702.      years.  For  instance,  at branching points the measured ratio of the
  703.      diameters in a system of blood-vessels comes close to the theoretical
  704.      optimum  provided  by  the laws of fluid dynamics (2^-1/3).  This, of
  705.      course, only represents a  limited,  engineering  point  of  view  on
  706.      nature. In general, nature performs adaptation, not optimization.
  707.  
  708.      The idea to imitate basic principles of natural processes for optimum
  709.      seeking procedures emerged more than three decades  ago  (cf  Q10.3).
  710.      Although  these  algorithms  have  proven  to  be  robust  and direct
  711.      OPTIMIZATION tools, it is only in the last five years that they  have
  712.      caught  the researchers' attention. This is due to the fact that many
  713.      people still look at organic EVOLUTION as a giantsized game of  dice,
  714.      thus  ignoring  the  fact  that  this  model of evolution cannot have
  715.      worked: a human germ-cell comprises approximately 50,000 GENEs,  each
  716.      of  which  consists  of about 300 triplets of nucleic bases. Although
  717.      the four  existing  bases  only  encode  20  different  amino  acids,
  718.      20^15,000,000,  ie  circa 10^19,500,000 different GENOTYPEs had to be
  719.      tested in only circa 10^17 seconds, the age of our planet. So, simply
  720.      rolling  the  dice  could  not have produced the diversity of today's
  721.      complex living systems.
  722.  
  723.      Accordingly,  taking  random  samples   from   the   high-dimensional
  724.      parameter  space  of an objective function in order to hit the global
  725.      optimum must fail (Monte-Carlo search). But  by  looking  at  organic
  726.      EVOLUTION  as  a  cumulative,  highly  parallel  sieving process, the
  727.      results of which pass on slightly modified into the next  sieve,  the
  728.      amazing   diversity   and  efficiency  on  earth  no  longer  appears
  729.      miraculous. When building a model, the point is to isolate  the  main
  730.      mechanisms  which  have  led  to  today's  world  and which have been
  731.      subjected to evolution themselves.  Inevitably, nature  has  come  up
  732.      with  a  mechanism  allowing  INDIVIDUALs  of one SPECIES to exchange
  733.      parts of their genetic information (RECOMBINATION or CROSSOVER), thus
  734.      being able to meet changing environmental conditions in a better way.
  735.  
  736.      Dantzig, G.B.  (1966)  "Lineare  Programmierung  und  Erweiterungen",
  737.      Berlin: Springer. (Linear pogramming and extensions)
  738.  
  739.      Kursawe,  F.  (1994) " Evolution strategies: Simple models of natural
  740.      processes?", Revue Internationale de Systemique, France (to  appear).
  741.  
  742.      Rosen,   R.  (1967)  "Optimality  Principles  in  Biologie",  London:
  743.      Butterworth.
  744.  
  745.      Schwefel, H.-P. (1981) "Numerical OPTIMIZATION of  Computer  Models",
  746.      Chichester: Wiley.
  747.  
  748. ------------------------------
  749.  
  750. End of ai-faq/genetic/part3
  751. ***************************
  752.  
  753.